6.1 线性模型的概念和分类

1 线性模型的概念

有时候两个随机变量存在很明显的线性关系, 因此我们需要专门研究线性模型.

线性统计模型

Y 是可观察的随机变量, x1,,xm 是可观察的一般变量. β1,,βp 是未知参数. ε 是不可观察的随机变量, 称为随机误差. 如果 Y=j=1pfj(x1,,xm)βj+ε, 其中 fj 已知, 则上式是线性统计模型, 简称线性模型. 一般假设 Eε=0.

一般我们可以把 fj(x1,,xm) 记为 x~j, 则 j=1pfj(x1,,xm)βj=j=1px~jβj. 不失一般性, 记线性模型为 (1.1)Y=j=1pxjβj+ε,E(ε)=0.
此时 EY=j=1pxjβj. [1]

在上面的定义里我们只取了前 p 个变量, 假设 xp+1,,xm 这些次重要的变量也共同影响了 Y, 则有 Y=f(x1,,xp)+g(xp+1,,xm)=f(x1,,xp)+ε. 所以 ε 可以理解为方程近似.

统计理论中, 我们不追究误差来自随机噪音或是次要特征, 而只关心它的分布特征.
在实际的 (1.1) 的统计推断中, 假设我们进行了 n>p 次实验; 第 α 次实验自变量为 xα=(xα1,,xαp)T (称 xα 为一个试验点), 相应的观察值为 yα, 也即 yα=j=1pxαjβj+εα,Eεα=0.y=(y1,,yn)T,X=(xαj), β=(β1,,βp)T, ε=(ε1,,εn)T, 则上式简写为 (1.2)y=Xβ+ε,Eε=0.
这里 X 称为 设计矩阵, y 称为观察值向量. (1.2) 会成为以后的出发点.

2 分类

根据自变量因子是连续/离散数值, 我们把它们分为数量因子属性因子两种. 基于此:

另一种分类方法是把 βj 看作因子 j 的显著程度, 它可能是随机的也可能是固定的.


  1. 我们把 x1,,xp 称为自变量, Y 是因变量; 不过它们只是对应方程表达式, 并不是真的因果关系. 有关因果关系参阅 因果推断. ↩︎